home *** CD-ROM | disk | FTP | other *** search
/ Power Tools 1993 November - Disc 2 / Power Tools Plus (Disc 2 of 2)(November 1993)(HP).iso / hotlines / nethl / ots / txt.cpy / OTS9000.TXT < prev    next >
Text File  |  1993-08-04  |  28KB  |  397 lines

  1.  
  2. OTS/9000 Performance Information
  3. --------------------------------
  4.  
  5. ************************************************************************
  6. * DISCLAIMER :                                                         *
  7. * This document is intended only for general information purposes.     *
  8. * HP specifically disclaims any and all warranties, expressed          *
  9. * or  implied, including but not limited to the warranties of          *
  10. * merchandability or fitness for a particular purpose with respect to  *
  11. * the  information in this document.                                   *
  12. * The information herein is subject to change without notice.          *
  13. ************************************************************************
  14.  
  15.  
  16. The following information is intended as a guide to performance tuning
  17. and configuration for the C.03.00 OTS stack.
  18.  
  19. This section contains the following parts :
  20.  
  21. A. Factors That Influence OTS Performance
  22.  
  23.    Terminology and Concepts
  24.    Performance Factors
  25.    Use of Performance Numbers
  26.  
  27. B. OTS Performance Test Model
  28.  
  29. C. OTS Performance
  30.  
  31.    Throughput Rate
  32.    Request-Reply Performance
  33.    Performance Tuning
  34.  
  35.  
  36. A. Factors That Influence OTS Performance
  37.  
  38. There are many factors that influence overall performance of a network
  39. application.  The purpose of this section is to define some common terms
  40. and to describe (loosely) their interrelationship with respect to
  41. performance.
  42.  
  43. A-1) Terminology and Concepts
  44.  
  45. o A TSDU (Transport Service Data Unit) is the logical unit of information transmitted between peer transport service, or XTI, users. A TPDU (Transport Protocol Data  Unit) is the physical unit data transmitted between peer transport entities across the network.  One or more TPDUs are used to transmit one TSDU.  The "window" size determines the number of TPDUs that the transport entity can transmit before waiting for an acknowledgment from the peer entity.
  46.  
  47. A TIDU (Transport Intermediate Data Unit) is the physical unit of data passed internally between the application and the transport entity (OTS) on the same system.Typically, one or more TIDUs are used to pass one TSDU. For the XTI send (t_snd) and receive (t_rcv) functions, the T_MORE flag is used to indicate whether or not the TSDU segment is the last part of the complete TSDU.
  48.  
  49.  
  50. o An SSDU (Session Service Data Unit) is the logical unit of information transmitted between peer session service users. The session entities transmit information in the form of SPDUs (Session Protocol Data Units) using the transport service. A session entity may transmit one or more SPDUs in a single TSDU.
  51.  
  52. The SSDU size for session version 2 normal data transfer is unlimited.
  53. OTS segments an SSDU of normal data into SPDUs based on the underlying
  54. TPDU size.
  55.  
  56. o An PSDU (Presentation Service Data Unit) is the logical unit of information transmitted between peer presentation service, or APLI, users. The presentation entities transmit information in the form of PPDUs (Presentation Protocol Data Units) using the session service. A presentation entity may transmit one or more PPDUs in a single SSDU.
  57.  
  58. NOTE: We have simplified the conceptual model by stopping at the Transport layer. Actually each TPDU is segmented into one or more Network layer packets; and for X.25, each Network packet is segmented into one or more Data Link layer frames. The Data Link frame is the physical unit of data transmitted between systems.
  59.  
  60. In OTS, applications run in user space, and the protocol entities are in the kernel, under Streams. When an application issues an open(2) system call to open a Streams device, a pair of Streams queues is created in the kernel (one for sending, and one for receiving). The XTI, Session, and APLI libraries use the Streams system calls putmsg(2) and getmsg(2) to communicate using TIDUs, SIDUs,and PIDUs, respectively, with the OTS protocol stack.
  61.  
  62. The maximum TPDU and window sizes are parameters of the OTS stack. The default maximum TPDU and window sizes are user-configurable, but these can be negotiated downward during connection establishment with a peer Transport entity.
  63.  
  64. The TSDU size is controlled by the XTI application. If the TSDU size exceeds the maximum TIDU size, the XTI library will segment the TSDU into multiple TIDUs.
  65.  
  66. In this section, we will assume that one TIDU is used for each TSDU for an XTI application. That is, the performance tests ensure that the TSDU is not so large that it must be segmented into multiple TIDUs. Consequently, in discussing the interactions between an application and the OTS stack, we will speak only of TSDUs, even though TIDU might be a more appropriate term.
  67.  
  68. When discussing the performance of the XTI, Session, or APLI application below, we will often use the term SDU to refer to a TSDU, SSDU, or PSDU, respectively. SDU (Service Data Unit) is meant to be a generic term for the unit of data seen by an application.
  69.  
  70.  
  71. A-2) Performance Factors
  72.  
  73. Larger TSDUs require fewer transfers between the application and the OTS stack. This results in fewer context switches and lower system overhead. For example, if an application is sending 100K bytes in a file transfer, this requires 100 transfers if TSDU size is set to 1024; but it requires only 25 transfers if the TSDU size is 4096.
  74.  
  75. Similarly, larger TPDUs require fewer transfers between peer transport entities across the network. Usually this results in better throughput, due to decreased bandwidth used for protocol headers and acknowledgements. For example, if the OTS stack transmits a 2000 byte TSDU, this requires 17 transfers if the TPDU size is set to 128; but it requires only 1 transfer if the TPDU size is 2048.
  76.  
  77. Larger window sizes allow the sending system to transmit more TPDUs before waiting for the receiving system to acknowledge their arrival. This increases the concurrent operation of the two systems.
  78.  
  79. Thus, we might expect that large TSDUs, large TPDUs, and large windows would maximize throughput. However, extremes in these directions can have a negative impact on performance because of other system and network factors.
  80.  
  81. For example, if we use a large window size and the receiving system is much slower than the sender, the sender is likely to overrun the LAN interface on the receiving system, and TPDUs will be dropped (lost). This will result in Transport retransmissions. Also, a lot of kernel memory may be consumed in the systems. When multiplied over a large number of connections, this can result in overall system performance degradation.
  82.  
  83. Retransmissions can have a significant impact on effective performance for two reasons. First, because the timer resolution is one second, even one retransmission on a 10 Mbit/sec LAN can devastate throughput, even for transfers of a megabyte of data. Second, the sender must retransmit all of the unacknowledged TPDUs; typically, this is an entire window. For larger window and TPDU sizes this means retransmitting more data.
  84.  
  85. Large TPDU sizes, whether you are using XTI, the Session Layer Access, or APLI, also causes the stack to take up more memory for PDUs in internal protocol and Streams queues. This can degrade the performance of the entire system if there are large number of OTS connections sending and/or receiving data.
  86.  
  87. Consequently, a delicate balance must be found among these parameters in order to maximize performance. Unfortunately, finding this balance is not an exact science. Experimentation with each situation is required.
  88.  
  89. B. OTS Performance Test Model
  90.  
  91. The Following important points have to be noted about the performance
  92. measurements below:
  93.  
  94. - Measurements made on an series 842 were done when it was communicating with an 827. Therefore whether the 842 was the sender or the receiver, it was bottlenecked by its own speed (and the link, of course). Similarly, measurements of the 720 and 827 were done against the series 750, except where noted.
  95.  
  96. -  Except where noted, all the stack parameters were set to the default values.
  97.  
  98. -  Only unidirectional data was considered while measuring throughput.
  99.  
  100. -  All X.25 measurements were made using an Amnet switch with the line speed set to 64 Kbps.
  101.  
  102. -  All the LAN measurements were made on an isolated LAN segment.
  103.  
  104. -  Superfluous processes running in the system were killed during the measurements (notably, the NFS daemons, syncer, cron, sendmail, etc.).
  105.  
  106. -  In all the measurements over LAN, the througput rate was best when the SDU size used was a little under 4096. The lone exception was the XTI receiver. The XTI receiver showed a throughput of 704 Kbytes/Sec, utilizing 49.5 % of an 842 at an SDU size of 3840.
  107.  
  108. -  In all the measurements over X.25, the throughput rate was best when the SDU size used was 2304 bytes (for the 842), or when the SDU size was a little under 4096 (for the 827 and 750).
  109.  
  110. -  All measurements were made only after the connection was established
  111. (to factor out connection establishment costs).
  112.  
  113. -  All Request-reply measurements were made with the Requester sending 'n' bytes as a request, and the reply being a fixed 100 bytes in size. Data has been given for different values of the request size.
  114.  
  115. Performance  of a customer's  network will depend upon the stack
  116. parameters,  the number of systems in the LAN (LAN traffic), the
  117. number of  subnets  configured,  the amount of  physical  memory
  118. available, and the SDU sizes used.
  119.  
  120. For example, if large number of  connections  are in  operation,
  121. all of them  pumping  lot of data  into the  network,  it may be
  122. possible that some PDUs are dropped due to buffer  shortages,  and
  123. this  can   result   in   retransmissions,   thereby   affecting
  124. performance.  Even if a lot of  other  tasks  (unrelated  to
  125. OTS) are being run on the  system,  the  performance  of OTS can
  126. degrade  considerably  because of contention  for CPU and memory
  127. between OTS and the other tasks.
  128.  
  129. Using SDU sizes  higher  than 4096 bytes may result in  slightly
  130. higher performance, but the CPU utilization figures may increase
  131. considerably.  However,  using SDU  sizes  higher  than  4096 in
  132. combination  with running large number of connections  can cause
  133. (depending  on how  much  data is  handled  by each  connection)
  134. performance  degradation of the entire  system, as it takes up a
  135. lot of kernel  memory.
  136.  
  137. Measured performance can also be affected by the total amount of
  138. data  transferred  during the lifetime of a connection.  This is
  139. because there is a fixed  overhead in connection  establishment,
  140. congestion  avoidance  algorithms  used  by  Transport,  delayed
  141. acknowledgement, etc.
  142.  
  143.  
  144. C. OTS Performance
  145.  
  146. C-1) Throughput Rate:
  147.  
  148.         Figure 4 gives the peak observed  throughput using XTI, Session
  149.         and APLI  programmatic  access methods over 802.3.  Figure 5 
  150.         gives the throughput over X.25.
  151.  
  152.         All measurements were made on an 842 communicating with a 827.
  153.         CPU Utilization measurements indicate that of an 842.
  154.  
  155.  
  156.  
  157.           --------------------------------------------------------------
  158.           |         SENDER              |       RECEIVER               |
  159.           ------------------------------------------------------|-------
  160.           | Thruput  |CPU Util   | SDU  | Thruput  |  CPU Util  | SDU  |
  161.           | (Kb/Sec) |           |      | (Kb/Sec) |            |      |
  162.           ------------------------------|-----------------------|-------
  163.   XTI     | 809.0    |  45.3 %   | 3840 |  714.3   |  52.2 %    | 2816 |
  164.           |----------|-----------|------|----------|------------|-------
  165.   Session | 768.6    |  59.9 %   | 3840 |  641.59  |  63.9 %    | 3840 |
  166.           |----------|-----------|------|----------|------------|-------
  167.   APLI    | 807.0    |  51.9 %   | 3840 |  691.3   |  58.2 %    | 3840 |
  168.           |----------|-----------|-----------------|------------|------|
  169.  
  170.  
  171.                 Figure 4:  Peak Throughput measurements over 802.3 LAN.
  172.  
  173.  
  174.  
  175.           --------------------------------------------------------------
  176.           |         SENDER              |       RECEIVER               |
  177.           --------------------------------------------------------------
  178.           | Thruput  |CPU Util   | SDU  | Thruput  |  CPU Util  | SDU  |
  179.           | (Kb/Sec) |           |      | (Kb/Sec) |            |      |
  180.           ------------------------------|-----------------------|-------
  181.   XTI     | 5.17     |  0.54 %   | 2304 |  5.11    |  1.32 %    | 2304 |
  182.           |----------|-----------|------|----------|------------|-------
  183.   Session | 5.18     |  0.80 %   | 2304 |  5.12    |  1.65 %    | 2304 |
  184.           |----------|-----------|------|----------|------------|-------
  185.   APLI    | 5.18     |  0.62 %   | 2304 |  5.05    |  1.65 %    | 2304 |
  186.           |----------|-----------|-----------------|------------|------|
  187.  
  188.          Figure 5: Peak Throughput measurements over X.25 (1 connection)
  189.  
  190.  
  191. C-2) Request-Reply Performance
  192.  
  193. Figures 6 and 7 show the request-reply performance of an 842 communicating with an 827 over 802.3 and X.25. Transactions per second and CPU utilization are shown for two SDU sizes, a "small" 100 byte SDU, and a "large" 3840 byte SDU.
  194.  
  195.           --------------------------------------------------------------
  196.           |         REQUESTER           |       REPLIER                |
  197.           --------------------------------------------------------------
  198.           | Trans    |CPU Util   | Req  | Trans    |  CPU Util  | Req  |
  199.           | per sec  |           | Size | per sec  |            | Size |
  200.           ------------------------------|-----------------------|-------
  201.   XTI     |  189     |  33.4 %   | 100  | 190      | 35.3  %    | 100  |
  202.           |  92      |  27.6 %   | 3840 | 91       | 30.8  %    | 3840 |
  203.           |----------|-----------|------|----------|------------|-------
  204.   Session |  124     |  42.7 %   | 100  | 125      | 42.4  %    | 100  |
  205.           |  73      |  34.0 %   | 3840 | 72       | 37.1  %    | 3840 |
  206.           |----------|-----------|------|----------|------------|-------
  207.   APLI    |  149     |  37.2 %   | 100  | 149      | 37.2  %    | 100  |
  208.           |  81      |  29.9 %   | 3840 | 79       | 33.5  %    | 3840 |
  209.           |----------|-----------|------|----------|------------|------|
  210.  
  211.             Figure 6: Request-Reply measurements over 802.3 LAN.
  212.  
  213.  
  214.           --------------------------------------------------------------
  215.           |         REQUESTER           |       REPLIER                |
  216.           --------------------------------------------------------------
  217.           | Trans    |CPU Util   | Req  | Trans    |  CPU Util  | Req  |
  218.           | per sec  |           | Size | per sec  |            | Size |
  219.           ------------------------------|-----------------------|-------
  220.   XTI     |  7.6     |  1.64 %   | 100  | 8.2      | 1.82  %    | 100  |
  221.           |  1.2     |  0.45 %   | 3840 | 1.1      | 1.33  %    | 3840 |
  222.           |----------|-----------|------|----------|------------|-------
  223.   Session |  7.6     |  3.11 %   | 100  | 7.6      | 3.11  %    | 100  |
  224.           |  1.2     |  0.71%    | 3840 | 1.2      | 1.62 %     | 3840 |
  225.           |----------|-----------|------|----------|------------|-------
  226.   APLI    |  7.6     |  2.32 %   | 100  | 7.6      | 2.35  %    | 100  |
  227.           |  1.2     |  0.58 %   | 3840 | 1.1      | 1.60  %    | 3840 |
  228.           |----------|-----------|------|----------|------------|------|
  229.  
  230.           Figure 7: Request-Reply measurements over X.25 (1 conection)
  231.  
  232.  
  233. C-3) Performance Tuning
  234.  
  235. This following data provides guidance in configuring OTS for optimal performance. OTS througput and request-response performance are compared for OTS running on different processors and network interfaces. The effect of the TP4 checksum calculation on performance is measured, and throughput measurements are taken for varying TPDU and window sizes.
  236.  
  237. Figure 8 shows the relative performance of the 842, 827, 720, and 750 over 802.3 using XTI. Measurements were taken with an 842 sending data to an 827, the 827 sending to a 750, and the 720 and 750 sending to each other.
  238.  
  239. In general, the relative performance of the other APIs to XTI should be similar to their relative performance as measured on the 842. The performance of machines other than those shown here can best be estimated by using data for a machine with a similar processor and I/O architecture. For instance comparisons can be made between the 827 and other members of the 8x7 family of machines, or between the 720 and 750, by scaling the CPU utilization by processor speed.
  240.  
  241.           --------------------------------------------------------------
  242.           |         SENDER              |       RECEIVER               |
  243.           --------------------------------------------------------------
  244.           | Thruput  |CPU Util   | SDU  | Thruput  |  CPU Util  | SDU  |
  245.           | (Kb/Sec) |           |      | (Kb/Sec) |            |      |
  246.           ------------------------------|-------------------------------
  247.   842     |  809.0      45.3 %     3840 |  704.9       49.6 %     3840 |
  248.   827     | 1077.7      47.6 %     3840 | 1113.6       72.0 %     3840 |
  249.   720     | 1127.6      37.8 %     3840 | 1140.4       50.9 %     3840 |
  250.   750     | 1140.4      29.4 %     3840 | 1127.6       36.0 %     3840 |
  251.           |-----------------------------|------------------------------|
  252.  
  253.                 Figure 8: Send throughput for systems over XTI/802.3
  254.  
  255.  
  256.           --------------------------------------------------------------
  257.           |         SENDER              |       RECEIVER               |
  258.           --------------------------------------------------------------
  259.           | Thruput  |CPU Util   | SDU  | Thruput  |  CPU Util  | SDU  |
  260.           | (Kb/Sec) |           |      | (Kb/Sec) |            |      |
  261.           ------------------------------|-------------------------------
  262.   842     |  5.08       0.35 %     3840 |   5.04      1.27 %      3840 |
  263.   827     |  5.19       0.39 %     3840 |   5.36      1.00 %      3840 |
  264.   750     |  5.36       0.52 %     3840 |   5.19      0.69 %      3840 |
  265.           |-----------------------------|------------------------------|
  266.  
  267.       Figure 9: Send throughput for systems over XTI/X.25 (1 connection)
  268.  
  269.  
  270.  
  271. Figures 10 and 11 show a comparison of different systems for request-reply traffic. As before the machines were paired as 842-827, 827-750, 720-750, 750-720. Request-reply traffic is more dependent than throughput on the speed of the partner machine, therefore, the raw number of transactions per second is not as important as the amount of CPU power needed to process each transaction.
  272.  
  273.           --------------------------------------------------------------
  274.           |         REQUESTER           |       REPLIER                |
  275.           | Trans    |CPU Util   | Req  | Trans    |  CPU Util  | Req  |
  276.           | per sec  |           | Size | per sec  |            | Size |
  277.           ------------------------------|-------------------------------
  278.   842     |  189        33.4 %      100 | 190         35.3 %       100 |
  279.           |   92        27.6 %     3840 |  91         30.8 %      3840 |
  280.           ------------------------------|-------------------------------
  281.   827     |  274        45.7 %      100 | 265         45.2 %       100 |
  282.           |  131        20.4 %     3840 | 129         38.6 %      3840 |
  283.           ------------------------------|-------------------------------
  284.   720     |  489        58.8 %      100 | 492         59.8 %       100 |
  285.           |  176        30.8 %     3840 | 177         37.8 %      3840 |
  286.           --------------------------------------------------------------
  287.   750     |  492        41.6 %      100 | 489         43.1 %       100 |
  288.           |  177        22.9 %     3840 | 176         27.1 %      3840 |
  289.           |-----------------------------|------------------------------|
  290.  
  291.        Figure 10: Request-Reply measurements for systems over XTI/802.3
  292.  
  293.           --------------------------------------------------------------
  294.           |         REQUESTER           |       REPLIER                |
  295.           --------------------------------------------------------------
  296.           | Trans    |CPU Util   | Req  | Trans    |  CPU Util  | Req  |
  297.           | per sec  |           | Size | per sec  |            | Size |
  298.           ------------------------------|-------------------------------
  299.   842     |  7.6        1.64 %      100 |   8.2       1.82 %       100 |
  300.           |  1.2        0.45 %     3840 |   1.1       1.33 %      3840 |
  301.           ------------------------------|-------------------------------
  302.   827     |  8.1        2.05 %      100 |   8.2       2.08 %       100 |
  303.           |  1.2        0.50 %     3840 |   1.2       1.01 %      3840 |
  304.           ------------------------------|-------------------------------
  305.   750     |  8.2        1.41 %      100 |   8.1       1.41 %       100 |
  306.           |  1.2        0.58 %     3840 |   1.2       0.72 %      3840 |
  307.           |-----------------------------|------------------------------|
  308.  
  309.         Figure 11: Request-Reply measurements for systems over XTI/X.25
  310.                    (1 connection)
  311.  
  312. The effect of using the optional TP4 checksum is measured in Figure 12, tested between two 827 machines running an XTI application. The checksum calculation takes an additional 31-53% CPU utilization, depending on whether the receiver or sender is considered, while delivering 11% less throughput.
  313.  
  314.  
  315.                         -------------------------------------------
  316.                         | Thruput  | CPU Util  | CPU Util  | SDU  |
  317.                         | (Kb/sec) | Sender    | Receiver  |      |
  318.                         -------------------------------------------
  319.      with checksum      | 821.4       64.0 %      79.6 %     3840 |
  320.      without checksum   | 927.0       41.8 %      60.6 %     3840 |
  321.                         |-----------------------------------------|
  322.  
  323.      Figure 12: Effect of TP4 checksum on XTI throughput over 802.3
  324.  
  325.  
  326. Varying the TPDU and/or transport window size is another way of trying to tune performance. Setting a larger TPDU size will allow OTS to operate more efficiently, handling larger chunks of data at a time. However, this may be offset by the increased penalty for retransmissions, depending on the reliability and congestion on the LAN. Also, a larger TPDU or window size increases the number of kernel buffers which are needed to store data which is pending acknowledgement or is waiting for delivery to the application.
  327.  
  328. The data shows the results of varying the TPDU size using the default window size, then varying the window size with the default TPDU size. All measurements were taking over XTI between two 827s. No measurements are shown using an 8192 byte TPDU, because in the Streams environment, XTI TSDUs of greater than 4 KB will be fragmented into smaller TIDUs. The performance for TPDU of 8192 bytes will be similar to that shown for 4096.
  329.  
  330.         -----------------------------------------------------------
  331.         | TPDU | window | Thruput  | CPU Util  | CPU Util  | SDU  |
  332.         |      | size   | (Kb/sec) | Sender    | Receiver  |      |
  333.         -----------------------------------------------------------
  334.         |  512      3      421.4      59.9 %      76.5 %     3960 |
  335.         | 1024      3      598.4      61.0 %      69.9 %     3960 |
  336.         | 2048      3      601.5      57.1 %      69.6 %     3960 |
  337.         | 4096      3      828.9      63.1 %      78.8 %     3960 |
  338.         -----------------------------------------------------------
  339.         | 4096      3      828.9      63.1 %      78.8 %     3960 |
  340.         | 4096      6      972.0      70.6 %      89.3 %     3960 |
  341.         | 4096     10      987.7      68.9 %      89.2 %     3960 |
  342.         | 4096     12      991.5      68.9 %      89.3 %     3960 |
  343.         | 4096     14      988.1      68.0 %      88.7 %     3960 |
  344.         |---------------------------------------------------------|
  345.  
  346. Figure 13: Effect of varying TPDU and window size on XTI throughput over 802.3
  347.  
  348.  
  349. Notice that performance increases significantly with increasing TPDU sizes. The best throughput seems to occur with a window size of 12, although the differences are not so dramatic. Again, these measurements were taken under ideal conditions over an isolated LAN.
  350.  
  351. Figure 14 shows the same measurements taken over X.25 with the default CONS TPDU and window sizes. The best throughput comes with a TPDU size of 256 bytes, although this comes at the cost of some additional CPU cycles. Also, note that the performance only improves slightly with increasing window size. This confirms our expectation that X.25 performance is limited by the speed of the X.25 interface and the X.25 subnetwork, and not by processing or protocol delays in the OSI stack.
  352.  
  353.         -----------------------------------------------------------
  354.         | TPDU | window | Thruput  | CPU Util  | CPU Util  | SDU  |
  355.         |      | size   | (Kb/sec) | Sender    | Receiver  |      |
  356.         -----------------------------------------------------------
  357.         |  128      5       4.98       2.12 %      3.75 %    3840 |
  358.         |  256      5       5.54       1.38 %      2.53 %    3840 |
  359.         |  512      5       5.15       0.78 %      1.47 %    3840 |
  360.         | 1024      5       5.10       0.51 %      1.25 %    3840 |
  361.         | 2048      5       5.05       0.35 %      1.23 %    3840 |
  362.         -----------------------------------------------------------
  363.         | 2048      2       5.04       0.35 %      1.17 %    3840 |
  364.         | 2048      3       5.05       0.35 %      1.21 %    3840 |
  365.         | 2048      5       5.05       0.35 %      1.23 %    3840 |
  366.         | 2048      9       5.05       0.35 %      1.26 %    3840 |
  367.         | 2048     15       5.06       0.36 %      1.30 %    3840 |
  368.         |---------------------------------------------------------|
  369.  
  370. Figure 14: Effect of varying TPDU and window size on XTI throughput over 
  371.            X.25 (1 connection)
  372.  
  373. .......................................................................
  374.  
  375. Item Subject: OTS PICS (April,1992)
  376. Below is a list of all the available transport and session PICS for OPUSk. Currently there is no automated way to retrieve these since we currently are limited to paper copies. Please send requests for OTS PICS to Jean-Yves RIGAULT at ENMC Grenoble.
  377.  
  378. PICS completed to date:
  379.  
  380.                 Session:        COS session version 1.0 (MHS)
  381.                                 COS session version 2.0 (FTAM)
  382.                                 CTS-WAN (OSTC) PICS
  383.                                 CTS-WAN (OSTC) session version 1.0 (MHS)
  384.                                 INTAP (MHS) PICS
  385.                                 INTAP (FTAM) PICS
  386.                 Transport/
  387.                 CLNP:           COS: TP4, CLNP (TA51, TA52, TA1111 
  388.                                 profiles)
  389.                                 COS: TP0 (TD1111 profile)
  390.                                 US GOSIP 1.0: TP0, TP4, CLNP PICS
  391.                                 CTS-WAN PICS: TP0, 1, 2, 3, 4
  392.                                 CTS-WAN (MHS) PICS
  393.                                 INTAP PICS:  TP0, 2
  394.                                 UK GOSIP PICS:  TP0, 2, 4, CLNP, ES-IS
  395.                                 Australian GOSIP PICS:  TP0, 2, 4, CLNP
  396.  
  397. ........................................................................